Resumen | NVIDIA GTC 22 (2): Enterprise - Alerta Geek

2022-10-22 20:15:00 By : Mr. Ken Xu

Presentaron nuevos productos para el Metaverso, servicios Cloud y GPUs de nueva generación

Esta semana se realizó la NVIDIA GTC 22 (GPU Tecnology Conference), conferencia dedicada a desarrolladores, ingenieros, investigadores, inventores y profesionales de TI. En este evento, la compañía multinacional de tecnología mostró sus últimos avances en todas sus líneas de desarrollo.

El evento contó con varios momentos y anuncios especiales, tanto de usuario como Enterprise. Para su rama empresarial, mostraron nuevos productos para el desarrollo del Metaverso, GPUs, servicios cloud, así como también nuevas tecnologías que se vienen.

Ojo, que el evento también tuvo su especial de respecto a la rama GeForce, en donde puedes conocer sus novedades en nuestra nota temática aquí.

Para los Workstation, se presentó en el evento la GPU NVIDIA RTX 6000, que se basa en la nueva arquitectura NVIDIA Ada Lovelace, enfocada en gráficos neuronales que se une a la IA y la simulación.

Entre los detalles, ofrece renderización en tiempo real, gráficos e IA, los diseñadores e ingenieros pueden impulsar workflows basados en simulación de vanguardia para construir y validar diseños más sofisticados. Para NVIDIA, es la plataforma ideal para crear contenido y herramientas para el metaverso con NVIDIA Omniverse Enterprise.

Los artistas pueden llevar la narración de historias al siguiente nivel, creando contenido más atractivo y creando entornos virtuales inmersivos. Los científicos, investigadores y profesionales médicos pueden acelerar el desarrollo de medicamentos y procedimientos que salvan vidas con la potencia de supercomputación en sus workstations, con un rendimiento hasta 2-4x mayor que la RTX A6000 de la generación anterior.

La RTX 6000 incorpora las últimas generaciones de tecnologías de renderizado, IA y sombreadores y cuenta con 48 GB de memoria de GPU, por lo que permite a los usuarios crear contenido increíblemente detallado, desarrollar simulaciones complejas y formar los componentes fundamentales necesarios para construir mundos virtuales atractivos y cautivantes.

Entre sus características están:

Estará disponible a partir de diciembre de este año.

Durante el 20 de septiembre, NVIDIA presentó su segunda generación de NVIDIA Omniverse (OVX), impulsada por una arquitectura de GPU de próxima generación y la tecnología mejorada de redes, para ofrecer capacidades innovadoras de simulación de gráficos en tiempo real, IA y digital twins.

Los nuevos sistemas están diseñados para mundos virtuales 3D utilizando las principales aplicaciones de software 3D y operar simulaciones inmersivas de digital twins en NVIDIA Omniverse Enterprise, una plataforma escalable e integral que permite a las empresas crear y operar aplicaciones del metaverso.

Para potenciar los nuevos sistemas OVX, se utilizará la GPU NVIDIA L40. Además, la OVX incluye la NVIDIA ConnectX-7 SmartNIC, lo que proporciona un rendimiento mejorado de red y almacenamiento y la sincronización precisa necesaria para los digital twins reales. ConnectX-7 incluye compatibilidad para redes 200G en cada puerto y cifrado de datos rápido en línea para acelerar el movimiento de datos y aumentar la seguridad de los digital twins.

Cada nodo de servidor OVX combina ocho GPU NVIDIA L40 con tres adaptadores de red NVIDIA ConnectX-7, lo que brinda la potencia de redes de 100/200/400G. Para las cargas de trabajo de Omniverse que requieren un mayor nivel de rendimiento y escala, los servidores se pueden implementar en configuraciones de NVIDIA OVX POD y SuperPOD con la plataforma Ethernet NVIDIA Spectrum-3.

Sobre su disponibilidad, estos sistemas estarán disponibles en Inspur, Lenovo y Supermicro a principios de 2023. GIGABYTE, H3C y QCT también ofrecerán sistemas OVX que incluirán GPU basadas en la arquitectura de próxima generación en el futuro.

Otra novedad relacionada fue el anuncio oficial de la tercera generación de GPU L40, basada en la arquitectura de GPU de próxima generación de NVIDIA.

Los Núcleos RT de tercera generación de la GPU L40 y los Núcleos Tensor de cuarta generación ofrecerán potentes capacidades para las cargas de trabajo de Omniverse que se ejecutan en OVX, incluida la renderización acelerada de materiales con ray tracing y path tracing, simulaciones físicamente precisas y la generación de datos sintéticos 3D fotorrealistas.

La L40 estará disponible en los servidores con Sistemas Certificados por NVIDIA de los principales proveedores OEM, con el fin de impulsar las cargas de trabajo de RTX desde el data center.

Otra novedad del evento fueron sus dos nuevos servicios de AI Cloud para modelos de idiomas grandes: el Servicio NVIDIA NeMo Large Language Model y el Servicio NVIDIA BioNeMo LLM.

Estos permiten a los desarrolladores adaptar fácilmente los LLM e implementar aplicaciones de IA personalizadas para la generación de contenido, resumen de texto, chatbots, desarrollo de código, así como estructura de proteínas y predicciones de propiedades biomoleculares, y más.

El Servicio NeMo LLM permite a los desarrolladores adaptar rápidamente una serie de modelos de fundación previamente entrenados utilizando un método de entrenamiento llamado aprendizaje rápido en la infraestructura administrada por NVIDIA. El Servicio NVIDIA BioNeMo es una Interfaz de programación de aplicaciones (API) de cloud que expande los casos de uso de LLM más allá del idioma y en aplicaciones científicas para acelerar el descubrimiento de fármacos para las empresas farmacéuticas y biotecnológicas.

El Servicio BioNeMo LLM permite a los investigadores ampliar el alcance de su trabajo aprovechando modelos que contienen miles de millones de parámetros. Estos modelos más grandes pueden almacenar más información sobre la estructura de las proteínas, las relaciones evolutivas entre los genes e incluso generar nuevas biomoléculas para aplicaciones terapéuticas.

El servicio también incluye dos nuevos modelos de Idiomas BioNeMo para aplicaciones de química y biología. Proporciona soporte para datos de proteínas, ADN y bioquímica para ayudar a los investigadores a descubrir patrones y conocimientos en secuencias biológicas.

Se espera que los servicios neMo LLM y BioNeMo y las API de cloud estén disponibles en acceso anticipado a partir del próximo mes. Los desarrolladores pueden solicitarlos ahora para obtener más detalles de octubre.

Adicionalmente, la versión beta del framework NeMo Megatron está disponible mediante NVIDIA NGC y está optimizada para ejecutarse en NVIDIA DGX Foundry y NVIDIA DGX SuperPOD, así como instancias de cloud aceleradas de Amazon Web Services, Microsoft Azure y Oracle Cloud Infrastructure.

Además de ajustar los modelos de base, los servicios de LLM incluyen la opción de usar modelos personalizados y listos para usar a través de una API de cloud.

 Esto les da a los desarrolladores acceso a una amplia gama de LLM previamente entrenados, incluido uno de los más grandes del mundo, Megatron 530B, con 530,000 millones de parámetros. También proporciona acceso a modelos T5 y GPT-3 creados con el framework NVIDIA NeMo Megatron , ahora disponible en versión beta abierta, para admitir una amplia gama de aplicaciones y requisitos de servicio multilingües.

Según comentaron, los líderes en las industrias automotriz, de computación, educación, atención de la salud, telecomunicaciones y otras están usando NeMo Megatron para ofrecer servicios pioneros a clientes en chino, inglés, coreano, sueco y otros idiomas.

Durante la conferencia, NVIDIA y Deloitte anunciaron una expansión de su alianza para permitir que las empresas de todo el mundo desarrollen e implementen soluciones de cloud híbrido utilizando las plataformas de IA de NVIDIA y NVIDIA Omniverse Enterprise.

Según los detalles, los profesionales de Deloitte obtendrán acceso a ambas plataformas de NVIDIA para ayudar a los clientes a desarrollar e implementar una amplia gama de aplicaciones de IA, incluida la IA en el edge, la IA de habla, los sistemas de recomendación, los chatbots, la ciberseguridad, los digital twins y más. 

La relación ampliará la capacidad de Deloitte para desarrollar soluciones innovadoras para sus clientes, incluidas empresas multinacionales. Los productos y tecnologías de IA de NVIDIA con la profunda experiencia de IA de Deloitte ayudarán a los clientes a abordar desafíos comerciales clave, como obtener una ventaja competitiva, mejorar la experiencia del cliente, optimizar operaciones y lanzar negocios innovadores en nuevos mercados.

Adicionalmente, los servicios de Realidad Ilimitada de Deloitte aprovechan el Centro para la Computación de IA y la plataforma NVIDIA Omniverse Enterprise para la colaboración de diseño 3D y la simulación de mundos virtuales. Deloitte y NVIDIA mencionan también estar colaborando para crear réplicas inmersivas o híbridas de entornos y procesos del mundo real para ayudar a las empresas a optimizar las operaciones y la toma de decisiones inteligente.

Los servicios estarán impulsados por diversos productos y tecnologías de envidia, que incluyen:

También se anunció la expansión de su línea NVIDIA Jetson, con el lanzamiento de nuevos sistemas en módulos Jetson Orin Nano, que ofrecen hasta 80 veces el rendimiento con respecto a la generación anterior, para establecer un nuevo estándar para la robótica y la IA en el edge de nivel básico.

Por primera vez, la familia NVIDIA Jetson abarca seis módulos de producción basados en Orin para admitir una gama completa de aplicaciones robóticas y de IA en el edge. La oferta va desde Orin Nano, que ofrece hasta 40 billones de operaciones por segundo (TOPS) de rendimiento de IA en el formato Jetson más pequeño, hasta AGX Orin, que ofrece 275 TOPS para máquinas autónomas avanzadas.

Los módulos Orin Nano estarán disponibles en dos versiones a partir de los $199 USD. El Orin Nano de 8 GB ofrece hasta 40 TOPS con potencia configurable de 7 W a 15 W, mientras que la versión de 4 GB ofrece hasta 20 TOPS con opciones de energía de tan solo 5 W a 10 W.

Otra de las novedades fue la GPU NVIDIA H100 Tensor Core, que estará en plena producción próximamente. En octubre, los socios tecnológicos globales planean implementar la primera ola de productos y servicios basados en la innovadora arquitectura NVIDIA Pascal.

Actualmente, se incluye una licencia de cinco años para la suite de software NVIDIA AI Enterprise con H100 para servidores convencionales. Esto optimiza el desarrollo y la implementación de workflows de IA y garantiza que las organizaciones tengan acceso a los frameworks y herramientas de IA necesarios para desarrollar chatbots de IA, motores de recomendación, IA de visión y más.

Para los clientes que quieren probar inmediatamente la nueva tecnología, NVIDIA anunció que H100 en los servidores Dell PowerEdge ya está disponible en NVIDIA LaunchPad, que proporciona laboratorios prácticos gratuitos para brindar a las empresas acceso al hardware más reciente y el software de IA de NVIDIA. Adicionalmente, Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán las primeras empresas en implementar instancias basadas en H100 en el cloud a partir del próximo año.

Finalmente, NVIDIA presentó su nueva computadora centralizada de próxima generación para vehículos autónomos llamada NVIDIA DRIVE Thor. Según indican, reemplazará a NVIDIA DRIVE Atlan y será la continuación de DRIVE Orin, que está actualmente en producción y ofrece 254 TOPS de rendimiento.

Logrará hasta 2000 teraflops de rendimiento, unifica las funciones inteligentes, incluida la conducción automatizada y asistida, el estacionamiento, el monitoreo del conductor y los ocupantes, el grupo de instrumentos digitales, el infoentretenimiento en el vehículo (IVI) y el entretenimiento en el asiento trasero, en una única arquitectura que permite una mayor eficiencia y un menor costo general del sistema.

El superchip de próxima generación incluye capacidades de IA de vanguardia que se presentaron por primera vez en la arquitectura de múltiples instancias de GPU NVIDIA Hopper, junto con la CPU NVIDIA Grace y la GPU Ada Lovelace.

DRIVE Thor con soporte MIG para gráficos y computación permite que IVI y los sistemas avanzados de asistencia al conductor ejecuten el aislamiento de dominios, lo que permite que los procesos simultáneos de tiempo crítico se ejecuten sin interrupción. Disponible para los modelos de 2025 de los fabricantes de automóviles, acelerará los planes de producción al ofrecer un mayor rendimiento y funciones avanzadas al mercado en la misma línea de tiempo.

Como señal del apoyo de la industria del transporte para esta nueva arquitectura de supercomputación, el fabricante de automóviles propiedad de Geely ZEEKR anunció que integrará DRIVE Thor en su computadora de vehículo centralizado para sus vehículos eléctricos inteligentes de próxima generación, que comenzarán la producción a principios de 2025.